神经网络中关于卷积池化的计算(不为整数时,卷积向下取整,池化向上取整) | 您所在的位置:网站首页 › darknet maxpooling输出计算 › 神经网络中关于卷积池化的计算(不为整数时,卷积向下取整,池化向上取整) |
输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一层卷积(kernel size 3×3,padding 1,stride 1)之后,输出特征图大小为:97 #输出=(input_w+2*p-k)/stride +1 这个公式:N=(image_h + 2*pad_h – kernel_h)/stride_h+ 1 解析: 一层卷积 :注意:这里卷积是向下取整的 池化: 二层卷积: 计算尺寸不被整除只在GoogLeNet中遇到过。卷积向下取整,池化向上取整。 例如:本题 (200-5+2*1)/2+1 为99.5,取99 (99-3)/1+1 为97 (97-3+2*1)/1+1 为97 研究过网络的话看到stride为1的时候,当kernel为 3 padding为1或者kernel为5 padding为2 一看就是卷积前后尺寸不变。 计算GoogLeNet全过程的尺寸也一样。 ps:caffe里面和darknet里面不一致,对于池化的地方。比如:下图中,对于YOLOv2_tiny,416*416的输入,经过最后一个max pool(size=2,stride=1),可以看到特征图13*13处理后还是13*13。 这就有点问题了,测试发现,Caffe中经过这一层特征图由13*13变成了12*12,会导致在Caffe下检测结果的box有偏差。 --------------------- 作者:零尾 来源:CSDN 原文:https://blog.csdn.net/lwplwf/article/details/83011667 版权声明:本文为博主原创文章,转载请附上博文链接! --------------------- 作者:boyan_RF 来源:CSDN 原文:https://blog.csdn.net/zhongjunlang/article/details/79566422 版权声明:本文为博主原创文章,转载请附上博文链接! |
CopyRight 2018-2019 实验室设备网 版权所有 |